#AI Coding

Barret李靖
2个月前
指挥 Codex CLI 干了四五个小时,把之前写的“网页音视频加速播放”油猴脚本改成了 Chrome 插件,已经提交商店审核。快速记录几点感受: 1. 聊四到五个小时,开始限制 token 了,不太够用,聊的过程中,感觉 token 消耗是个黑盒,不知道它在干什么 2. 当遇到报错时,会给它提供报错信息以及截图,但一开始总是有点不信任它能把问题搞定 3. 代码一旦改坏了,最想做的就是回到上一步,但上一步我给它安排了四五个任务,这时候要是只让它移除其中某段代码,又怕引出新的报错。事实证明,最稳妥的方式还是每个 feature 都独立进入 git 管理,否则回退会非常麻烦。feature 都进入 git 管理 4. codex 读代码读的实在是太认真了,以至于执行任务的速度特别慢,对于稍微复杂点的任务,或者同时布置了多个任务,需要 5~20min 才能搞定 5. 每次对话结束,我都希望它能自动把过程记录下来,但它做得并不好,总结的内容也很一般。 6. 80% 情况写出来的代码能直接跑;出错的那 20%,经过第二轮调教后大多也能跑通。 7. 看着它执行某个任务的空档,脑子里有了新的想法,会想让它并发执行很多任务,但又担心它处理不过来。 8. 95% 都是 AI 写代码,但有些问题它排查得实在是太慢了,会忍不住自己上手,比它要快很多。 9. 有部分任务它处理的并不好,例如让它生成 svg 图标,效果很差。 10. 表达清晰很重要,如果任务描述的过于抽象,它可能会理解错,如果跟他沟通的时候,具体到函数名或 DOM id,它的处理基本会更准确。 以上遇到的问题,基本都找到了好的解法,等后面整理了再分享。还是要多用,才能不断优化工具的使用。 总的来说,整个项目完成的速度已经是我自己的 5 倍以上,因为省略了学习陌生知识的时间。说实话,一个月花 2~3k 在 AI Coding 上,完全是值得的,相当于给自己找了个外包。
凡人小北
2个月前
最近在看一圈 ToB agent 的落地情况,有个判断越来越清晰: 至少还得 1 年,国内 ToB agent 才可能真正起来。 第一,国内的模型能力,还不够。 ToB 业务链条长、场景复杂、对结果的容错率极低。 现在的大模型,哪怕再微调十遍,稳定性不够,自洽性不够,还不够听话这些问题依然严重。 prompt 写得挺对,它干的事还是不怎么靠谱。像个刚转岗的实习生,流程懂了点,但是做起来全是 bug。 第二,做技术和懂业务的,不是一拨人。 ToB agent 最大的挑战是知识怎么迁移。比如想让 agent 搞懂保险理赔、医疗问诊、法律审查……这些不是写 prompt 能解决的,它们背后是几十年经验、人情流程和模糊判断。 越值钱的知识,掌握它的人越年长,越难被结构化表达,更别说这批人愿不愿意倾囊相授。 技术今天搞出来一个 agent,业务方只会说三句话:你这不准啊、我们流程不是这样的、你这漏了关键条件,但这个流程是之前开发跟业务一起梳理出来的。 这背后藏了抵触,技术和业务之间,隔着的不是 AI,是一整座山。 那为什么 AI coding 能先跑出来?因为这事里最懂业务的就是技术自己。 谁最懂代码结构?技术! 谁能写 agent 调 agent?技术! 谁能 debug agent?还是技术! 技术是唯一一拨能自己用,自己调 bug的群体。业务等于本体,没有认知 gap,也不需要跨专业翻译,一整个闭环自然就跑通了。 本质区别在这:AI coding 是单边迁移服务自己, ToB agent 是双边博弈,需要认知共建。一个能快,一个必须慢。 对于 AI coding,只要模型理解开发者就够了。ToB agent,不仅模型要懂业务,开发者还得懂业务,然后两边还得对得上话。 这,太难了。 真正的转折点要出现:必须满足模型能稳定 编码行业知识,Agent 能封装复杂动作并处理结果反馈(前提是老顽固们愿意掏心窝),企业能放心把核心流程交出去。 到那一天,ToB 才真正算是 ready 了。 那时候再回头看 coding agent 的进化速度,也许已经不是一个量级的对比了。 技术在革自己命这件事上,从来没有输过任何群体。